Robustness evaluation against adversarial examples has become increasingly important to unveil the trustworthiness of the prevailing deep models in natural language processing (NLP). However, in contrast to the computer vision domain where the first-order projected gradient descent (PGD) is used as the benchmark approach to generate adversarial examples for robustness evaluation, there lacks a principled first-order gradient-based robustness evaluation framework in NLP. The emerging optimization challenges lie in 1) the discrete nature of textual inputs together with the strong coupling between the perturbation location and the actual content, and 2) the additional constraint that the perturbed text should be fluent and achieve a low perplexity under a language model. These challenges make the development of PGD-like NLP attacks difficult. To bridge the gap, we propose TextGrad, a new attack generator using gradient-driven optimization, supporting high-accuracy and high-quality assessment of adversarial robustness in NLP. Specifically, we address the aforementioned challenges in a unified optimization framework. And we develop an effective convex relaxation method to co-optimize the continuously-relaxed site selection and perturbation variables and leverage an effective sampling method to establish an accurate mapping from the continuous optimization variables to the discrete textual perturbations. Moreover, as a first-order attack generation method, TextGrad can be baked into adversarial training to further improve the robustness of NLP models. Extensive experiments are provided to demonstrate the effectiveness of TextGrad not only in attack generation for robustness evaluation but also in adversarial defense.
translated by 谷歌翻译
尽管促进机器学习(ML)公平的最新进展激增,但现有的主流方法主要需要培训或填充神经网络的整个权重以满足公平标准。但是,由于较大的计算和存储成本,低数据效率和模型隐私问题,对于那些大规模训练的模型来说,这通常是不可行的。在本文中,我们提出了一种称为FairreProgragr的新的通用公平学习范式,该范式结合了模型重编程技术。具体而言,Fairreprogrogram考虑了固定的神经模型,而是将输入一组扰动(称为公平触发器)附加到,该触发触发器在Min-Max公式下朝着公平标准调整为公平触发器。我们进一步介绍了一个信息理论框架,该框架解释了为什么以及在什么条件下,使用公平触发器可以实现公平目标。我们从理论和经验上都表明,公平触发器可以通过提供错误的人口统计信息来有效地掩盖固定ML模型的输出预测中的人口偏见,从而阻碍模型利用正确的人口统计信息来进行预测。对NLP和CV数据集进行的广泛实验表明,与在两个广泛使用的公平标准下,基于培训成本和数据依赖性的基于重新培训的方法相比,我们的方法可以实现更好的公平性改进。
translated by 谷歌翻译
分子和形态特征是生物分类学的重要部分,是矛盾的,但需要整合。如今,有机体的图像识别和生物信息学正在出现和热门问题,但它们之间存在差距。在这项工作中,由遗传信息介导的一个多分支识别框架桥接了这个障碍,该障碍建立了宏观形态学和蘑菇的微分子信息之间的联系。提出了新型的多角度结构来融合三个分支模型的特征图像,从而显着提高了识别的准确性约10%,高达90%以上。此外,通过使用遗传距离嵌入作为预测图像距离和物种识别的表示空间,将遗传信息实现到蘑菇图像识别任务中。还首次深入讨论了传统分类任务的语义过度拟合和细粒图像识别的粒度。使用零拍学习任务在细粒度的情况下研究了该模型的普遍性,这可以预测看不见样本的分类和进化信息。我们提出了第一种将图像映射到DNA的方法,即使用编码器映射图像来遗传距离,然后通过预先训练的解码器解码DNA,其中37种DNA预测的总检验准确性为87.45%。这项研究通过系统地研究蘑菇图像识别问题,弥合宏观生物学信息和微观分子信息之间的差距,从而创建一个新颖的识别框架,这将为未来的智能生物识别技术提供新的参考。
translated by 谷歌翻译
当前的深度神经网络(DNN)容易受到对抗性攻击的影响,在这种攻击中,对输入的对抗扰动可以改变或操纵分类。为了防御此类攻击,已证明一种有效而流行的方法,称为对抗性训练(AT),可通过一种最小的最大强大的训练方法来减轻对抗攻击的负面影响。尽管有效,但尚不清楚它是否可以成功地适应分布式学习环境。分布式优化对多台机器的功能使我们能够扩展大型型号和数据集的强大训练。我们提出了这一点,我们提出了分布式的对抗训练(DAT),这是在多台机器上实施的大批量对抗训练框架。我们证明DAT是一般的,它支持对标记和未标记的数据,多种类型的攻击生成方法以及梯度压缩操作的培训。从理论上讲,我们在优化理论中的标准条件下提供了DAT与一般非凸面设置中一阶固定点的收敛速率。从经验上讲,我们证明DAT要么匹配或胜过最先进的稳健精度,并实现了优美的训练速度(例如,在ImageNet下的Resnet-50上)。代码可在https://github.com/dat-2022/dat上找到。
translated by 谷歌翻译
对抗性培训(AT)已成为一种广泛认可的防御机制,以提高深度神经网络对抗对抗攻击的鲁棒性。它解决了最小的最大优化问题,其中最小化器(即,后卫)寻求稳健的模型,以最小化由最大化器(即,攻击者)制成的对抗示例存在的最坏情况训练损失。然而,Min-Max的性质在计算密集并因此难以扩展。同时,快速算法,实际上,许多最近改进的算法,通过替换基于简单的单次梯度标志的攻击生成步骤来简化基于最大化步骤的最小值。虽然易于实施,快速缺乏理论保证,其实际表现可能是不令人满意的,患有强大的对手训练时的鲁棒性灾难性过度。在本文中,我们从双级优化(BLO)的角度来看,旨在快速设计。首先,首先进行关键观察,即快速at的最常用的算法规范等同于使用一些梯度下降型算法来解决涉及符号操作的双级问题。然而,标志操作的离散性使得难以理解算法的性能。基于上述观察,我们提出了一种新的遗传性双层优化问题,设计和分析了一组新的算法(快速蝙蝠)。 FAST-BAT能够捍卫基于符号的投影梯度下降(PGD)攻击,而无需调用任何渐变标志方法和明确的鲁棒正则化。此外,我们经验证明,通过在不诱导鲁棒性灾难性过度的情况下实现卓越的模型稳健性,或患有任何标准精度损失的稳健性,我们的方法优于最先进的快速基线。
translated by 谷歌翻译
最近的研究表明,基于神经网络的深度推荐系统容易受到对抗性攻击的影响,攻击者可以将精心制作的虚假用户配置文件(即,伪造用户与之互动的一组项目)注入目标推荐系统,以实现恶意目的,例如促进或降低一组目标项目。由于安全性和隐私问题,在黑框设置下执行对抗性攻击更为实用,在黑框设置下,攻击者无法轻松访问目标系统的体系结构/参数和培训数据。但是,在Black-Box设置下生成高质量的假用户配置文件,对于目标系统的资源有限,这是一项挑战。为了应对这一挑战,在这项工作中,我们通过利用项目的属性信息(即项目知识图)引入了一种新颖的策略,这些信息可以公开访问并提供丰富的辅助知识来增强伪造用户配置文件的产生。更具体地说,我们提出了一项知识增强的黑框攻击框架(KGATTACK),以通过深度强化学习技术有效地学习攻击政策,其中知识图无缝集成到层次结构策略网络中,以生成伪造的用户配置文件,以表演对抗性黑色 - 黑色 - - 黑色 - 黑色 - 盒子攻击。在各种现实世界数据集上进行的全面实验证明了在黑框设置下提出的攻击框架的有效性。
translated by 谷歌翻译
大芬基的物种鉴定,即蘑菇,一直是一项具有挑战性的任务。仍然有大量有毒的蘑菇,这对人们的生命构成了风险。但是,传统的识别方法需要大量在手动识别的分类学领域具有知识的专家,而且不仅效率低下,而且消耗了大量的人力和资本成本。在本文中,我们提出了一个基于注意力机构的新模型,Mushroomnet,该模型将轻型网络MobilenetV3应用于骨干模型,并结合了我们提出的注意力结构,并在蘑菇识别任务中实现了出色的性能。在公共数据集上,Mushroomnet模型的测试准确性已达到83.9%,在本地数据集上,测试精度已达到77.4%。提出的注意机制很好地将注意力集中在蘑菇图像的身体上,以进行混合通道注意力,并通过GRAD-CAM可视化的注意热图。此外,在这项研究中,将遗传距离添加到蘑菇图像识别任务中,将遗传距离用作表示空间,并且数据集中每对蘑菇物种之间的遗传距离被用作遗传距离表示的嵌入空间,以预测图像距离和物种。确认。我们发现,使用MES激活函数可以很好地预测蘑菇的遗传距离,但精度低于软疗法。拟议的蘑菇网已被证明,它显示出自动和在线蘑菇图像的巨大潜力,拟议的自动程序将有助于并参考传统的蘑菇分类。
translated by 谷歌翻译
为了分析多维数据的丰富,已经开发了张量的框架。传统上,矩阵奇异值分解(SVD)用于从包含矢量化数据的矩阵中提取最主导的特征。虽然SVD对可以适当表示为矩阵的数据非常有用,但是矢量化步骤导致我们丢失了数据内在的高维关系。为了便于高效的多维特征提取,我们利用了使用基于投影的分类算法,使用T-SVDM,矩阵SVD的张量模拟。我们的作品扩展了T-SVDM框架和分类算法,最初提出了所有数量的尺寸。然后,我们使用Starplus FMRI DataSet将此算法应用于分类任务。我们的数值实验表明,基于张于FMRI分类的卓越方法,而不是基于最佳的等效矩阵的方法。我们的结果说明了我们选择的张量框架的优势,提供了对参数的有益选择的洞察力,并且可以进一步开发用于分类更复杂的成像数据。我们在https://github.com/elizabethnewman/tensor-fmri提供我们的Python实现。
translated by 谷歌翻译
专家混合(MOE)架构表明有希望导致改善多任务学习(MTL)的参数共享以及缩放高容量神经网络。最先进的MOE模型使用培训稀疏门来为每个输入示例选择专家的子集。概念上吸引人的同时,现有的稀疏栅极,如TOP-K并不顺利。缺乏平滑性可以在以梯度为基础的方法培训时导致收敛和统计性能问题。在本文中,我们基于新型二进制编码配方,开发DSelect-K:用于MOE的连续微分和稀疏的浇口。门可以使用诸如随机梯度下降的一阶方法进行培训,并提供对选择的专家数量的显式控制。我们展示了DSelect-K对合成和真实MTL数据集的有效性,最高可达128美元。我们的实验表明,DSelect-k可以在流行的Moe盖茨上实现统计上显着的预测和专家选择。值得注意的是,与Top-K相比,在现实世界的大规模推荐系统中,DSelect-K可实现预测性能超过22±22℃。我们提供DSelect-K的开源实现。
translated by 谷歌翻译
凝视估计方法从面部特征学习眼睛凝视。然而,在面部图像中的丰富信息中,真正的凝视相关特征只对应于眼睛区域的微妙变化,而其他凝视无关的功能,如照明,个人外观和甚至面部表情可能会以意想不到的方式影响学习。这是现有方法在跨域/数据集评估中显示出显着性能下降的主要原因。在本文中,我们在凝视估计中解决了跨域问题。与常见的域适应方法不同,我们提出了一种域泛化方法,以改善跨域性能而不触摸目标样本。通过凝视特征纯化实现域泛化。我们消除了凝视无关的因素,如照明和身份,以改善跨域性能。我们设计了用于凝视功能净化的即插即用自我对抗框架。该框架不仅增强了我们的基线,而且直接且显着地增强了现有的凝视估计方法。据我们所知,我们是第一个提出凝视估计中的域泛化方法的。我们的方法不仅可以在典型的凝视估计方法之间实现最先进的性能,而且在域适应方法中也是竞争结果。代码在https://github.com/yihuacheng/puregaze中发布。
translated by 谷歌翻译